视网膜成像数据中解剖特征的自动检测和定位与许多方面有关。在这项工作中,我们遵循一种以数据为中心的方法,以优化分类器训练,用于视神经层析成像中的视神经头部检测和定位。我们研究了域知识驱动空间复杂性降低对所得视神经头部分割和定位性能的影响。我们提出了一种机器学习方法,用于分割2D的视神经头3D广场扫描源光源光学相干断层扫描扫描,该扫描能够自动评估大量数据。对视网膜的手动注释2D EN的评估表明,当基础像素级分类任务通过域知识在空间上放松时,标准U-NET的训练可以改善视神经头部细分和定位性能。
translated by 谷歌翻译
Brain-inspired computing proposes a set of algorithmic principles that hold promise for advancing artificial intelligence. They endow systems with self learning capabilities, efficient energy usage, and high storage capacity. A core concept that lies at the heart of brain computation is sequence learning and prediction. This form of computation is essential for almost all our daily tasks such as movement generation, perception, and language. Understanding how the brain performs such a computation is not only important to advance neuroscience but also to pave the way to new technological brain-inspired applications. A previously developed spiking neural network implementation of sequence prediction and recall learns complex, high-order sequences in an unsupervised manner by local, biologically inspired plasticity rules. An emerging type of hardware that holds promise for efficiently running this type of algorithm is neuromorphic hardware. It emulates the way the brain processes information and maps neurons and synapses directly into a physical substrate. Memristive devices have been identified as potential synaptic elements in neuromorphic hardware. In particular, redox-induced resistive random access memories (ReRAM) devices stand out at many aspects. They permit scalability, are energy efficient and fast, and can implement biological plasticity rules. In this work, we study the feasibility of using ReRAM devices as a replacement of the biological synapses in the sequence learning model. We implement and simulate the model including the ReRAM plasticity using the neural simulator NEST. We investigate the effect of different device properties on the performance characteristics of the sequence learning model, and demonstrate resilience with respect to different on-off ratios, conductance resolutions, device variability, and synaptic failure.
translated by 谷歌翻译
在本文中,我们介绍了全景语义细分,该分段以整体方式提供了对周围环境的全景和密集的像素的理解。由于两个关键的挑战,全景分割尚未探索:(1)全景上的图像扭曲和对象变形; (2)缺乏培训全景分段的注释。为了解决这些问题,我们提出了一个用于全景语义细分(Trans4Pass)体系结构的变压器。首先,为了增强失真意识,Trans4Pass配备了可变形的贴片嵌入(DPE)和可变形的MLP(DMLP)模块,能够在适应之前(适应之前或之后)和任何地方(浅层或深度级别的(浅层或深度))和图像变形(通过任何涉及(浅层或深层))和图像变形(通过任何地方)和图像变形设计。我们进一步介绍了升级后的Trans4Pass+模型,其中包含具有平行令牌混合的DMLPV2,以提高建模歧视性线索的灵活性和概括性。其次,我们提出了一种无监督域适应性的相互典型适应(MPA)策略。第三,除了针孔到型 - 帕诺amic(PIN2PAN)适应外,我们还创建了一个新的数据集(Synpass),其中具有9,080个全景图像,以探索360 {\ deg} Imagery中的合成对真实(Syn2real)适应方案。进行了广泛的实验,这些实验涵盖室内和室外场景,并且使用PIN2PAN和SYN2REAL方案进行了研究。 Trans4Pass+在四个域自适应的全景语义分割基准上实现最先进的性能。代码可从https://github.com/jamycheung/trans4pass获得。
translated by 谷歌翻译
高质量数据对于现代机器学习是必需的。但是,由于人类的嘈杂和模棱两可的注释,难以获取此类数据。确定图像标签的这种注释的聚合导致数据质量较低。我们提出了一个以数据为中心的图像分类基准,该基准具有9个现实世界数据集和每个图像的多次注释,以调查和量化此类数据质量问题的影响。我们通过询问如何提高数据质量来关注以数据为中心的观点。在数千个实验中,我们表明多个注释可以更好地近似实际的基础类别分布。我们确定硬标签无法捕获数据的歧义,这可能会导致过度自信模型的常见问题。根据呈现的数据集,基准基准和分析,我们为未来创造了多个研究机会。
translated by 谷歌翻译
脑转移经常发生在转移性癌症的患者中。早期和准确地检测脑转移对于放射治疗的治疗计划和预后至关重要。为了提高深入学习的脑转移检测性能,提出了一种称为体积级灵敏度特异性(VSS)的定制检测损失,该损失是单个转移检测灵敏度和(子)体积水平的特异性。作为敏感性和精度始终在转移水平中始终是折射率,可以通过调节VSS损耗中的重量而无需骰子分数系数进行分段转移来实现高精度或高精度。为了减少被检测为假阳性转移的转移样结构,提出了一种时间的现有量作为神经网络的额外输入。我们提出的VSS损失提高了脑转移检测的敏感性,将灵敏度提高了86.7%至95.5%。或者,它将精度提高了68.8%至97.8%。随着额外的时间现有量,在高灵敏度模型中,约45%的假阳性转移减少,高特异性模型的精度达到99.6%。所有转移的平均骰子系数约为0.81。随着高灵敏度和高特异性模型的集合,平均每位患者的1.5个假阳性转移需要进一步检查,而大多数真正的阳性转移确认。该集合学习能够区分从需要特殊专家审查或进一步跟进的转移候选人的高信心真正的阳性转移,特别适合实际临床实践中专家支持的要求。
translated by 谷歌翻译
动机:我们考虑通过过渡率矩阵$ Q $ indeClation-ratix $ q $描述动态系统的连续时间马尔可夫链,这取决于参数$ \ theta $。以时间为$ t $计算常态概率分布需要矩阵指数$ \ exp(tq)$,并推断$ \ theta $从数据需要它的衍生$ \ partial \ exp \!(tq)/ \ partial \ theta $ 。两者都在挑战,在状态空间和Q $的大小巨大时计算。当状态空间由几个交互离散变量的值的所有组合组成时,可能会发生这种情况。通常它甚至不可能储存$ q $。但是,当$ Q ​​$可以作为张量产品的总和写入时,计算$ \ exp(TQ)$可通过均匀化方法变得可行,这不需要显式存储$ q $。结果:在这里,我们提供了一种用于计算$ \ Partial \ exp \!(TQ)/ \ Partial \ Theta $,差异化均匀化方法的类似算法。我们展示了我们对流行病蔓延的随机SIR模型的算法,我们认为$ Q $可以作为张量产品的总和。我们在奥地利的Covid-19流行病的第一波浪潮中估计了每月感染和恢复利率,并在全面的贝叶斯分析中量化了他们的不确定性。可用性:实现和数据在https://github.com/spang-lab/tensir中获得。
translated by 谷歌翻译
在过去的十年中,在逻辑锁定的设计和评估方面取得了很大进展;一种维护整个电子供应链中集成电路完整性的首选技术。然而,机器学习的广泛增殖最近引入了评估逻辑锁定方案的新途径。本文总结了当代机器学习模型前沿的逻辑锁定攻击和对策的最新发展。基于所提出的工作,重点突出了关键的外卖,机会和挑战,为下一代逻辑锁定设计提供了建议。
translated by 谷歌翻译
一贯的高数据质量对于深度学习领域的新型损失功能和体系结构的发展至关重要。通常假定存在此类数据和标签的存在,而在许多情况下,获取高质量数据集仍然是一个主要问题。在现实世界数据集中,由于注释者的主观注释,我们经常遇到模棱两可的标签。在我们以数据为中心的方法中,我们提出了一种重新标记标签的方法,而不是在神经网络中实施此问题的处理。根据定义,硬分类不足以捕获数据的现实歧义。因此,我们提出了方法“以数据为中心的分类和聚类(DC3)”,该方法结合了半监督分类和聚类。它会自动估计图像的歧义,并根据歧义进行分类或聚类。 DC3本质上是普遍的,因此除了许多半监督学习(SSL)算法外,还可以使用它。平均而言,这会导致分类的F1得分高7.6%,而在多个评估的SSL算法和数据集中,簇的内距离降低了7.9%。最重要的是,我们给出了概念验证,即DC3的分类和聚类是对此类模棱两可标签的手动完善的建议。总体而言,SSL与我们的方法DC3的组合可以在注释过程中更好地处理模棱两可的标签。
translated by 谷歌翻译
参数服务器(PSS)促进用于大型机器学习任务的分布式培训。在本文中,我们认为现有的PSS是表现出非统一参数访问的任务的低效;他们的表现甚至可能落后于单节点基线。我们确定了这种非统一访问的两个主要来源:偏斜和抽样。现有的PSS不适合管理歪斜,因为它们统一地对所有参数应用相同的参数管理技术。它们对采样效率低下,因为PS对相关的随机访问感知并且无法利用局部性。为了克服这些性能限制,我们介绍了NUP,一种新的PS架构,(i)集成了多种管理技术,并采用了每个参数的合适技术,并且(ii)通过合适的采样基元和采样方案直接支持对受控质量进行采样。 - 效率折磨。在我们的实验研究中,NUPs优于现有的PSS,最多一种数量级,并在多台机器学习任务中提供了直线可扩展性。
translated by 谷歌翻译
Variational inference uses optimization, rather than integration, to approximate the marginal likelihood, and thereby the posterior, in a Bayesian model. Thanks to advances in computational scalability made in the last decade, variational inference is now the preferred choice for many high-dimensional models and large datasets. This tutorial introduces variational inference from the parametric perspective that dominates these recent developments, in contrast to the mean-field perspective commonly found in other introductory texts.
translated by 谷歌翻译